WGAN的成功,可能跟Wasserstein距离没啥关系
©PaperWeekly 原创 · 作者|苏剑林
单位|追一科技
研究方向|NLP、神经网络
WGAN,即 Wasserstein GAN,算是 GAN 史上一个比较重要的理论突破结果,它将 GAN 中两个概率分布的度量从 f 散度改为了 Wasserstein 距离,从而使得 WGAN 的训练过程更加稳定,而且生成质量通常也更好。
Wasserstein 距离跟最优传输相关,属于 Integral Probability Metric(IPM)的一种,这类概率度量通常有着更优良的理论性质,因此 WGAN 的出现也吸引了很多人从最优传输和 IPMs 的角度来理解和研究 GAN 模型。
然而,最近 Arxiv 上的论文《Wasserstein GANs Work Because They Fail (to Approximate the Wasserstein Distance)》[1] 则指出,尽管 WGAN 是从 Wasserstein GAN 推导出来的,但是现在成功的 WGAN 并没有很好地近似 Wasserstein 距离,相反如果我们对 Wasserstein 距离做更好的近似,效果反而会变差。
本文是对 WGAN 训练过程的探讨,并不算入门文章。关于初学 GAN,欢迎参考互怼的艺术:从零直达 WGAN-GP;而关于 f 散度与 GAN 之间的联系,可以参考 f-GAN 简介:GAN 模型的生产车间和 Designing GANs:又一个 GAN 生产车间;至于WGAN的理论推导,可以参考从Wasserstein距离、对偶理论到 WGAN;对于 GAN 的训练过程分析,还可以参考从动力学角度看优化算法:GAN 的第三个阶段。
可以参考《Towards Principled Methods for Training Generative Adversarial Networks》[2] 、令人拍案叫绝的 Wasserstein GAN [3] 或笔者的相关 GAN [4] 文章证明,vanilla GAN 实际上相对于在缩小两个分布之间的 JS 散度。
给判别器加上 L 约束主要有两个主要方案:一是谱归一化(Spectral Normalization,SN),可以参考深度学习中的 Lipschitz 约束:泛化与生成模型,现在很多 GAN(不限于 WGAN)为了稳定训练,都往判别器甚至生成器上都加入谱归一化了;
效果 ≠ 近似
事实上“WGAN 并没有很好近似 Wasserstein 距离”这个现象也不是第一次被关注了,比如 2019 年就有论文《How Well Do WGANs Estimate the Wasserstein Metric?》[6] 系统地讨论过这一点。而本文要介绍的论文,则通过比较严谨地设置实验来确定 WGAN 效果的好坏与 Wasserstein 距离近似程度的联系。
当然,原论文选这个图真是让人哭笑不得,事实上 WGAN-GP 的效果可以比上面右图好得多。于是,我们可以暂时下结论:
效果好的 WGAN 在训练过程中并没有很好地近似 Wasserstein 距离; 更好地近似 Wasserstein 距离究竟对提升生成效果并没有帮助。
和 是交替训练的; 每次都只是随机选一个 batch 来训练。
数学 ≠ 视觉
所以,现在 WGAN 成功的原因就很迷了:WGAN 是基于 Wasserstein 距离推导出来的,然后在实现上却跟 Wasserstein 距离有点差距,而这个差距很可能才是 WGAN 成功的关键。
原论文认为 WGAN 的最关键之处是引入了 L 约束,往任意一个 GAN 变种里边引入 L 约束(谱归一化或梯度惩罚),多多少少都能使得效果和稳定性有点提升,因此 L 约束才是提升的要点,而并不是想象中的 Wasserstein 距离。
简单的总结
参考文献
更多阅读
#投 稿 通 道#
让你的论文被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学习心得或技术干货。我们的目的只有一个,让知识真正流动起来。
📝 来稿标准:
• 稿件确系个人原创作品,来稿需注明作者个人信息(姓名+学校/工作单位+学历/职位+研究方向)
• 如果文章并非首发,请在投稿时提醒并附上所有已发布链接
• PaperWeekly 默认每篇文章都是首发,均会添加“原创”标志
📬 投稿邮箱:
• 投稿邮箱:hr@paperweekly.site
• 所有文章配图,请单独在附件中发送
• 请留下即时联系方式(微信或手机),以便我们在编辑发布时和作者沟通
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧
关于PaperWeekly
PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。